-1986년 AI 및 로봇 연구 동향
1. 서론: AI 겨울의 해빙과 새로운 부흥의 시대
1980년부터 1986년까지의 시기는 인공지능(AI)과 로봇공학 분야에서 지적 에너지가 폭발적으로 분출된 변혁의 시대였다. 1970년대 중반, 과도한 기대와 실질적인 성과의 괴리로 인해 연구 자금이 고갈되고 비관론이 팽배했던 ’제1차 AI 겨울(First AI Winter)’이 지나간 후, 1980년대 초반은 새로운 낙관론과 함께 전례 없는 규모의 투자가 이루어지며 기술적 부흥을 맞이했다.1 이 시기의 부활은 과거의 한계를 명확히 인식하는 것에서부터 시작되었다. 이전 시대의 연구를 지배했던 범용 문제 해결사(General Problem Solver)와 같은 ’약한 방법론(weak methods)’은 일반적인 문제에는 적용될 수 있었으나, 더 크고 어려운 현실 세계의 문제 앞에서는 확장성의 한계를 드러냈다.1 이러한 반성 위에서, 특정 전문 분야(domain)에 깊이 있는 지식을 활용하여 문제를 해결하려는 새로운 접근법이 시대의 주류로 부상했다.
이러한 지적 전환은 대규모 국가 및 기업 단위의 투자를 통해 강력한 추진력을 얻었다. 1981년, 일본 통상산업성(현 경제산업성)은 8억 5,000만 달러라는 막대한 예산을 투입하여 ’제5세대 컴퓨터 프로젝트(Fifth-generation computer project)’를 발표했다.2 이 프로젝트의 목표는 인간처럼 대화하고, 언어를 번역하며, 그림을 해석하고, 논리적으로 추론할 수 있는 차세대 컴퓨터와 소프트웨어를 개발하는 것이었다. 특히 이 프로젝트가 초기 단계에서 주력 컴퓨터 언어로 논리형 프로그래밍 언어인 Prolog를 채택한 것은, 당시 Lisp이 지배하던 AI 커뮤니티에 상당한 충격을 주며 전 세계적인 경쟁을 촉발하는 계기가 되었다.3
일본의 야심 찬 도전에 서구 세계도 즉각적으로 반응했다. 영국은 3억 5,000만 파운드 규모의 ’알비(Alvey) 프로젝트’를 시작했으며, 미국에서는 여러 기업이 연합하여 대규모 AI 및 정보 기술 프로젝트에 자금을 지원하는 컨소시엄인 MCC(Microelectronics and Computer Technology Corporation)를 결성했다.3 미국 국방고등연구계획국(DARPA) 역시 ’전략적 컴퓨팅 이니셔티브(Strategic Computing Initiative)’를 통해 1984년부터 1988년까지 AI 분야에 대한 투자를 세 배로 증액하며 경쟁에 불을 지폈다.3 이러한 국가적 경쟁은 기업들의 투자로 이어져, 1985년경에는 전 세계 기업들이 자체 AI 부서를 설립하고 전문가 시스템을 도입하는 데 연간 10억 달러 이상을 지출하는 상업적 AI 붐이 일어났다.2
이러한 소프트웨어와 투자의 부흥은 하드웨어 기술의 발전이라는 든든한 토대 위에서 가능했다. 1980년대 초반 Apple II, TRS-80, IBM PC와 같은 개인용 컴퓨터(PC)가 대중화되고, 1984년 Apple Macintosh가 현대적인 그래픽 사용자 인터페이스(GUI)를 선보이면서 AI 기술은 더 이상 고가의 메인프레임 컴퓨터의 전유물이 아니게 되었다.1 PC의 등장은 전문가 시스템과 같은 AI 애플리케이션을 보다 저렴하고 접근하기 쉬운 플랫폼에서 구동할 수 있게 함으로써 기술의 확산과 민주화에 결정적인 역할을 했다. 이처럼 1980-1986년은 AI 겨울의 해빙기를 넘어, 막대한 투자, 하드웨어의 혁신, 그리고 새로운 지적 패러다임의 등장이 맞물리며 AI와 로봇공학의 미래 지형을 근본적으로 바꾼 중추적인 시기였다.
2. 인공지능 - 지식 기반 접근법의 정점과 연결주의의 귀환
2.1 전문가 시스템: 지식 공학의 시대
1980년대 AI의 부흥을 이끈 핵심 동력은 단연 전문가 시스템(Expert Systems)이었다. 이는 AI 연구의 패러다임을 근본적으로 전환시킨 ’지식 혁명(Knowledge revolution)’의 구체적인 산물이었다.
2.1.1 패러다임 전환: “지식은 힘이다 (Knowledge is Power)”
1970년대의 연구를 거치며 AI 연구자들은 지능적 행동이 소수의 강력하고 일반적인 추론 규칙에서 비롯되는 것이 아니라, 특정 영역(domain)에 대한 방대하고 상세하며 다양한 지식을 효과적으로 활용하는 능력에 기반한다는 중요한 깨달음을 얻었다.3 스탠퍼드 대학교의 에드워드 파이겐바움(Edward Feigenbaum)이 주창한 이 개념은 “지식은 힘이다“라는 구호로 요약되며, 1980년대 AI 연구의 핵심 철학으로 자리 잡았다.3 이는 AI가 해결해야 할 핵심 문제가 ‘추론’ 그 자체가 아니라 ’지식의 표현과 활용’에 있음을 명확히 한 중대한 전환이었다.
2.1.2 핵심 구조 분석
전문가 시스템은 이러한 철학을 바탕으로 인간 전문가가 가진 전문 지식과 문제 해결 능력을 컴퓨터 프로그램으로 구현하려는 시도였다.3 그 구조는 본질적으로 두 개의 핵심 구성 요소로 이루어져 있다.1
- 지식 베이스 (Knowledge Base): 특정 전문 분야의 모든 중요한 데이터, 사실, 그리고 경험적 규칙들을 담고 있는 저장소다. 이 지식은 주로 “만약 A라면, B이다(IF-THEN)” 형태의 생성 규칙(production rules)으로 표현되었다.1 초기 시스템인 MYCIN이나 Dendral에서는 지식이 변수에 대한 평이한 단정문(flat assertions) 형태로 저장되었으나, 1980년대 상용 셸(shell)이 등장하면서 객체 지향 프로그래밍의 개념이 도입되어 지식 베이스는 더욱 구조화된 형태를 띠게 되었다.4
- 추론 엔진 (Inference Engine): 지식 베이스에 저장된 규칙들을 논리적으로 적용하여 사용자의 질문에 답하거나 주어진 문제에 대한 결론을 도출하는 역할을 한다. 관찰된 사실을 바탕으로 “IF-THEN” 규칙을 연쇄적으로 적용하여 최종 결론에 도달하는 방식으로 작동한다.1
2.1.3 주요 성공 사례 심층 분석
이러한 구조를 바탕으로 한 전문가 시스템은 여러 분야에서 실질적인 성공을 거두며 AI의 상업적 가능성을 증명했다.
- XCON (또는 R1): 1980년 카네기 멜런 대학교(CMU)에서 Digital Equipment Corporation(DEC)을 위해 개발한 이 시스템은 전문가 시스템의 가장 상징적인 성공 사례로 꼽힌다. XCON은 고객이 주문하는 복잡한 VAX 컴퓨터 시스템의 구성 요소들이 서로 호환되는지 확인하고 최적의 구성을 자동으로 설계하는 작업을 수행했다. 이 시스템은 1986년까지 DEC에게 연간 4,000만 달러에 달하는 비용 절감 효과를 가져다주었으며, 이는 AI 기술이 단순한 학문적 탐구를 넘어 실제 산업 현장에서 막대한 경제적 가치를 창출할 수 있음을 입증한 최초의 사례 중 하나였다.2
- 의료 진단 시스템: 전문가 시스템의 실현 가능성을 초기에 보여준 분야는 의료계였다. 1970년대에 개발된 MYCIN(감염성 혈액 질환 진단 및 항생제 처방)과 1980년대 중반의 CADUCEUS(내과 분야 진단)와 같은 시스템들은 의사의 진단 과정을 모방하여 특정 증상에 대한 가능한 질병을 추론해냈다.3
- 기타 응용 분야: 분광계 측정값을 분석하여 유기 분자의 구조를 추론하는 Dendral(1965년 시작), VAX 9000 CPU 로직 게이트의 93%를 자동으로 생성한 SID(Synthesis of Integral Design, 1982년 개발) 등 화학, 공학 설계, 금융 분야에 이르기까지 전문가 시스템의 응용은 빠르게 확산되었다.3
2.1.4 상업적 생태계 형성 및 기술적 한계
XCON의 성공은 AI 산업 생태계의 폭발적인 성장을 견인했다. Lisp 언어 실행에 최적화된 전용 하드웨어를 제작하는 Symbolics와 Lisp Machines, 그리고 전문가 시스템 개발용 소프트웨어 셸을 판매하는 IntelliCorp, Aion과 같은 회사들이 등장하며 하나의 산업을 형성했다.2 그러나 이러한 상업적 성공의 이면에는 전문가 시스템이 가진 근본적인 기술적 한계가 존재했다. 첫째, 인간 전문가의 머릿속에 있는 암묵적인 지식과 경험을 명시적인 ‘IF-THEN’ 규칙으로 추출하고 체계화하는 과정은 극도로 어렵고 시간이 많이 소요되는 작업이었으며, 이는 ‘지식 획득 병목(knowledge acquisition bottleneck)’ 현상으로 불렸다.6 둘째, 전문가 시스템은 엄격하게 정의된 규칙의 범위를 조금이라도 벗어나는 예외적인 상황이나 불완전한 정보에 직면했을 때 성능이 급격히 저하되는 ’취약성(brittleness)’을 보였다.7 이러한 한계들은 결국 1980년대 후반 전문가 시스템의 거품이 꺼지고 ’제2차 AI 겨울’을 맞이하는 주요 원인이 되었다.
2.2 연결주의의 부활: 병렬 분산 처리의 서막
전문가 시스템이 상업적 성공을 구가하며 AI의 주류를 형성하고 있던 1980년대, 학계의 한편에서는 이에 대한 근본적인 대안을 모색하는 움직임이 조용히, 그러나 강력하게 일어나고 있었다. 이는 1969년 마빈 민스키(Marvin Minsky)와 시모어 파퍼트(Seymour Papert)의 저서 『퍼셉트론(Perceptrons)』에서 제기된 비판으로 인해 오랜 침체기를 겪었던 인공 신경망 연구의 부활이었으며, ’연결주의(Connectionism)’라는 새로운 이름으로 재등장했다.8
2.2.1 상징주의 AI에 대한 대안
연결주의는 전문가 시스템으로 대표되는 ‘상징주의 AI(Symbolic AI)’ 또는 ’훌륭한 구식 AI(Good Old-Fashioned AI, GOFAI)’와는 근본적으로 다른 철학에 기반을 두었다.8 상징주의가 지능을 명시적인 기호(symbol)와 규칙(rule)의 조작을 통한 논리적 추론의 결과물로 본 반면, 연결주의는 지능이 뇌의 신경망 구조에서 영감을 받아, 수많은 단순한 처리 장치(인공 뉴런)들이 상호 연결된 네트워크 내에서 병렬적이고 분산된 방식으로 정보를 처리하는 과정에서 창발(emerge)한다고 보았다.8 이 접근법은 규칙을 수동으로 만드는 대신, 데이터로부터 학습하는 능력을 핵심으로 삼았다.
2.2.2 존 홉필드(John Hopfield)의 1982년 연구
연결주의 부활의 신호탄을 쏘아 올린 인물은 캘리포니아 공과대학교(Caltech)의 존 홉필드였다. 그는 1982년 미국 국립과학원회보(PNAS)에 발표한 논문에서 통계 역학의 개념을 신경망에 도입하여 ’홉필드 네트워크(Hopfield Network)’라는 새로운 모델을 제시했다.8
-
핵심 개념: 홉필드 네트워크는 양방향으로 연결된 재귀적인 구조를 가진 신경망으로, ’연상 메모리(associative memory)’로서의 독특한 특성을 보였다. 네트워크에 특정 패턴들을 학습시키면, 나중에 불완전하거나 노이즈가 섞인 일부 정보만 입력으로 주어져도 전체 네트워크가 동적으로 안정된 상태(stable state)로 수렴하면서 원래 학습했던 가장 유사한 패턴을 완벽하게 복원해냈다.13
-
에너지 함수: 홉필드는 이 네트워크의 동작 원리를 ’에너지 함수(Energy Function)’라는 개념으로 설명했다. 네트워크의 각 상태는 특정 에너지 값을 가지며, 네트워크는 시간이 지남에 따라 이 에너지 값이 극소점(local minimum)에 도달할 때까지 상태를 계속해서 변화시킨다. 이 안정된 극소점 상태가 바로 네트워크가 기억하는 패턴에 해당한다. 에너지 함수는 다음과 같이 정의된다.13
E = - \frac{1}{2} \sum_{i \neq j} T_{ij} s_i s_j - \sum_{i} I_i s_i
여기서 s_i는 뉴런 i의 상태(예: +1 또는 -1), T_{ij}는 뉴런 i와 j 사이의 연결 가중치, 그리고 I_i는 뉴런 i에 가해지는 외부 입력을 나타낸다. 이 수학적 형식화는 신경망 연구에 물리학적 엄밀함을 부여했으며, 최적화 문제 해결의 새로운 가능성을 열어주었다.
2.2.3 역전파 알고리즘(Backpropagation)의 재발견 (1986)
연결주의의 부활에 결정적인 기폭제가 된 사건은 1986년 데이비드 류멜하트(David Rumelhart), 제프리 힌튼(Geoffrey Hinton), 로널드 윌리엄스(Ronald Williams)가 저명한 과학 저널 ’네이처(Nature)’에 발표한 “오차 역전파를 통한 표현 학습(Learning representations by back-propagating errors)“이라는 논문이었다.11
- 역사적 배경: 역전파의 핵심 아이디어는 폴 워보스(Paul Werbos) 등에 의해 1970년대에 이미 제안되었으나, 그 중요성이 널리 인식되지 못하고 있었다.18 류멜하트, 힌튼, 윌리엄스의 논문은 이 알고리즘의 강력함을 명확하게 설명하고 실제 문제에 적용하여 그 잠재력을 입증함으로써 학계에 큰 반향을 일으켰다.22
- 핵심 원리: 역전파 알고리즘은 입력층과 출력층 사이에 하나 이상의 은닉층(hidden layers)을 가진 다층 신경망을 효과적으로 훈련시키는 방법이다. 그 원리는 다음과 같다. 먼저, 네트워크가 주어진 입력에 대해 예측한 출력과 실제 정답(target) 사이의 오차(error)를 계산한다. 그런 다음, 이 오차를 출력층에서부터 시작하여 네트워크의 입력 방향으로 한 층씩 거꾸로 전파시키면서, 각 연결 가중치가 최종 오차에 얼마나 기여했는지를 연쇄 법칙(chain rule)을 이용해 계산한다. 마지막으로, 이 정보를 바탕으로 경사 하강법(gradient descent)을 사용하여 오차를 줄이는 방향으로 모든 가중치를 미세하게 조정한다. 이 과정을 수많은 데이터에 대해 반복함으로써 네트워크는 복잡한 비선형 관계를 학습하게 된다.20 이 알고리즘의 등장은 단층 퍼셉트론이 해결할 수 없었던 XOR 문제와 같은 비선형 문제를 다층 네트워크가 해결할 수 있는 길을 열어주었다.
2.2.4 철학적 논쟁: GOFAI vs. 연결주의
이 시기는 두 개의 지배적인 AI 패러다임이 정면으로 충돌한 시기였다. 전문가 시스템으로 대표되는 GOFAI는 지능을 명시적으로 프로그래밍된 기호와 규칙의 논리적 연산으로 보았다. 반면, 연결주의는 지능이 명시적인 규칙 없이 데이터로부터 학습된 분산된 표상(distributed representation)에서 창발하는 현상으로 간주했다. GOFAI가 추론 과정의 투명성과 설명 가능성을 장점으로 내세운 반면, 연결주의는 학습, 일반화, 그리고 노이즈에 대한 강인함을 강점으로 내세웠다. 1980년대 후반, 이 두 접근법 사이의 대립은 AI의 본질과 미래 방향에 대한 근본적인 지적 논쟁을 촉발시켰으며, 이는 AI 연구 커뮤니티의 중요한 지적 긴장 관계를 형성했다.8
이러한 대립 구도는 단순히 기술적 선호의 차이가 아니었다. 이는 AI 연구의 두 가지 다른 방향성을 보여준다. 전문가 시스템은 특정 문제에 대한 즉각적인 해결책을 제공하며 상업적 실용성을 추구하는 ‘활용(exploitation)’ 중심의 접근이었다. 반면, 연결주의는 당장의 실용성은 부족했지만 지능의 근본 원리를 탐구하고 더 일반적이고 강력한 학습 메커니즘을 찾으려는 ‘탐색(exploration)’ 중심의 접근이었다. 전문가 시스템의 붐과 버스트는 실용주의적 접근의 명확한 성공과 한계를 보여주었고, 연결주의의 부활은 수십 년 후 딥러닝 혁명을 이끌 씨앗을 뿌린, 장기적 비전의 승리를 예고했다.
2.3 핵심 AI 분야의 주요 발전
전문가 시스템과 연결주의라는 두 거대 패러다임의 경쟁 속에서도, AI의 여러 핵심 세부 분야에서는 훗날 현대 AI 기술의 근간이 될 중요한 이론적, 기술적 돌파구가 마련되고 있었다.
2.3.1 컴퓨터 비전(Computer Vision)
1980년대 컴퓨터 비전 연구는 이미지로부터 의미 있는 구조적 정보를 추출하는 기초적인 단계에 집중했다.
- 이론적 기반: 1980년대 초반, MIT의 데이비드 마(David Marr)가 제시한 계산 이론(computational theory)은 컴퓨터 비전 연구에 강력한 이론적 프레임워크를 제공했다. 그의 접근법은 이미지를 2D 픽셀의 집합에서 3D 세계에 대한 이해로 전환하는 과정을 체계적으로 설명했으며, 이 시기 연구는 주로 엣지(edge) 검출, 특징(feature) 추출과 같은 저수준(low-level) 이미지 처리 기법에 초점을 맞추었다.26
- 존 캐니(John Canny)의 엣지 검출기 (1986): 이 시기 컴퓨터 비전 분야의 가장 기념비적인 성과 중 하나는 1986년 존 캐니가 발표한 엣지 검출 알고리즘이다.27 캐니는 좋은 엣지 검출기가 만족해야 할 세 가지 기준을 수학적으로 명확하게 정의했다.28
- 높은 검출률 (Good Detection): 실제 엣지를 놓치지 않고, 존재하지 않는 엣지를 검출하지 않아야 한다.
- 정확한 위치 (Good Localization): 검출된 엣지가 실제 엣지의 중앙에 최대한 가깝게 위치해야 한다.
- 단일 반응 (Single Response): 단일 엣지에 대해 여러 개의 엣지 픽셀이 검출되지 않고, 단 하나의 반응만을 보여야 한다.
캐니는 이 기준들을 최적화하는 수학적 해법을 유도했으며, 그 결과로 나온 알고리즘은 오늘날까지도 널리 사용되는 표준적인 방법이 되었다. 이 알고리즘은 다음과 같은 다단계 프로세스로 구성된다.28
- 가우시안 필터링 (Gaussian Filtering): 이미지의 노이즈를 제거하기 위해 가우시안 필터로 이미지를 부드럽게 만든다.
- 그래디언트 계산 (Gradient Calculation): 이미지의 강도(intensity) 그래디언트의 크기와 방향을 계산하여 엣지의 후보 지점을 찾는다.
- 비최대 억제 (Non-Maximum Suppression): 엣지가 두껍게 나타나는 것을 방지하기 위해, 그래디언트 방향에서 국소적 최대값이 아닌 픽셀들을 제거하여 엣지를 가늘게 만든다.
- 이중 임계값 적용 (Double Thresholding): 두 개의 임계값(높은 값, 낮은 값)을 사용하여 엣지 픽셀을 ’강한 엣지’와 ’약한 엣지’로 분류하고, 낮은 임계값보다 작은 픽셀은 제거한다.
- 히스테리시스를 이용한 엣지 추적 (Edge Tracking by Hysteresis): 강한 엣지와 연결된 약한 엣지만을 최종 엣지로 인정하고, 연결되지 않은 약한 엣지는 노이즈로 간주하여 제거한다.
2.3.2 자연어 처리(Natural Language Processing, NLP)
1980년대는 NLP 분야에서 규칙 기반 접근법의 황혼기와 통계적 접근법의 여명기가 교차하는 중요한 전환점이었다.
- 통계적 전환의 시작: 1970년대까지 NLP는 언어학자들이 수작업으로 정교한 문법 규칙을 만들어 컴퓨터에 입력하는 규칙 기반(rule-based) 시스템이 주를 이루었다.30 그러나 인간 언어의 복잡성, 모호성, 그리고 무수한 예외 사항들로 인해 이러한 접근법은 유연성과 확장성 면에서 명백한 한계에 부딪혔다.31 1980년대에 들어서면서, 이러한 한계를 극복하기 위한 대안으로 대규모 텍스트 데이터, 즉 코퍼스(corpus)를 활용하여 언어의 통계적 패턴을 학습하는 방법론이 부상하기 시작했다.30 이는 언어 현상을 확률적 모델로 다루려는 시도였으며, 현대 NLP의 주류가 된 기계 학습 기반 접근법의 시초가 되었다. 1980년부터 1988년까지의 시기는 이러한 초기 NLP 연구가 진행된 시기로 구분된다.32
2.3.3 의사결정 트리(Decision Trees)
상징주의 AI와 통계적 학습의 교차점에서 중요한 발전이 이루어졌다. 바로 데이터로부터 명시적인 규칙을 자동으로 학습하는 방법론의 등장이다.
-
J. 로스 퀸란(J. Ross Quinlan)의 ID3 알고리즘 (1986): 호주의 컴퓨터 과학자 로스 퀸란은 1986년 발표한 논문 “의사결정 트리의 귀납(Induction of Decision Trees)“에서 ID3(Iterative Dichotomiser 3) 알고리즘을 제시했다.17 이는 전문가 시스템의 지식 획득 병목 문제를 해결하기 위한 강력한 대안이었다. 전문가가 직접 규칙을 만드는 대신, 데이터 사례(examples)로부터 분류 규칙을 담은 의사결정 트리를 자동으로 생성하는 방법을 제안한 것이다.
-
핵심 메커니즘: ID3의 핵심 아이디어는 정보 이론(information theory)에서 비롯되었다. 트리를 성장시키는 각 단계에서, 데이터를 가장 잘 분류할 수 있는, 즉 가장 많은 정보를 제공하는 속성(attribute)을 선택하는 것이다. 이를 위해 ’엔트로피(Entropy)’와 ’정보 획득량(Information Gain)’이라는 두 가지 개념을 사용한다.38
-
엔트로피: 주어진 데이터 집합의 불순도(impurity) 또는 불확실성을 측정하는 지표다. 모든 데이터가 동일한 클래스에 속하면 엔트로피는 0이고, 클래스들이 균등하게 섞여 있으면 엔트로피는 최대가 된다. 집합 S의 엔트로피 H(S)는 다음과 같이 계산된다.
H(S) = - \sum_{c \in C} p(c) \log_2 p(c)
여기서 C는 클래스의 집합이고, p(c)는 클래스 c에 속하는 샘플의 비율이다. -
정보 획득량: 특정 속성 A를 사용하여 데이터 집합 S를 분할했을 때, 엔트로피가 얼마나 감소하는지를 나타내는 값이다. 정보 획득량이 가장 큰 속성이 현재 단계에서 데이터를 가장 효과적으로 분류하는 속성이다. 속성 A의 정보 획득량 IG(S, A)는 다음과 같이 계산된다.
IG(S, A) = H(S) - \sum_{v \in Values(A)} \frac{\vert S_v \vert}{\vert S \vert} H(S_v)
여기서 Values(A)는 속성 A가 가질 수 있는 값들의 집합이고, S_v는 속성 A의 값이 v인 S의 부분 집합이다.
ID3 알고리즘은 상징주의 AI의 결과물(해석 가능한 규칙)과 연결주의의 방법론(데이터 기반 학습)을 결합한 ‘통계적-상징주의’ 접근법의 대표적인 예시로 볼 수 있다. 이는 두 거대 패러다임 사이의 간극을 메우는 중요한 다리 역할을 했으며, 1990년대 기계 학습 연구의 주류를 형성하는 데 큰 영향을 미쳤다.
3. 로봇공학 - 산업 현장의 지능화와 자율 로봇의 탄생
1980-1986년은 로봇공학 분야에서도 중요한 변곡점이었다. 한편에서는 기존 산업용 로봇이 더욱 정교하고 지능적으로 진화했으며, 다른 한편에서는 자율적으로 움직이는 로봇을 위한 혁신적인 제어 패러다임이 등장했다. 이는 마치 AI 분야에서 실용적인 전문가 시스템과 이론적인 연결주의가 공존했던 것과 유사하게, 로봇공학 내에서도 두 개의 뚜렷한 발전 경로가 나타났음을 보여준다.
3.1 산업용 로봇의 고도화
1980년대 중반은 오늘날 우리가 사용하는 현대 산업용 로봇의 기술적 토대가 마련된 결정적인 시기였다.40 이전 세대의 로봇들이 주로 유압식으로 구동되며, 사전에 프로그래밍된 경로를 맹목적으로 반복하는 기계 장치에 가까웠다면, 이 시기의 로봇들은 주변 환경을 인식하고 반응하는 능력을 갖추기 시작했다.
3.1.1 감각의 통합
이러한 변화의 핵심은 센서 기술의 통합이었다. 로봇에 ’감각’이 부여되기 시작한 것이다.
- 센서 기술의 발전: 정밀 힘 센서(precision force sensors), 레이저(lasers), 그리고 초보적인 형태의 머신 비전(machine vision) 시스템이 산업용 로봇에 탑재되기 시작했다.40 이러한 센서들은 로봇이 단순히 정해진 좌표로 이동하는 것을 넘어, 조립 라인을 따라 움직이는 부품의 위치를 실시간으로 감지하고 그 경로를 추적할 수 있게 만들었다. 예를 들어, Unimate 500과 Puma 560 같은 1986년의 산업용 로봇들은 이러한 진보를 상징하는 모델이었다.40
- ’제한된 지능’의 발현: 센서의 통합은 로봇의 본질을 바꾸어 놓았다. 로봇은 인간과 유사한 ’시각’과 ’촉각’을 갖게 되었고, 이를 통해 산업 환경과 상호작용하는 방식이 혁신적으로 변화했다. 그 결과, 로봇은 더 이상 단순 반복 작업을 수행하는 기계가 아니라, 주변 환경의 변화에 어느 정도 대응할 수 있는 ’제한된 지능(limited intelligence)’을 가진 정교한 장치로 인식되기 시작했다.40 이러한 발전은 마이크로프로세서와 같은 컴퓨터 하드웨어 비용이 크게 감소한 덕분에 가속화될 수 있었다.40
3.1.2 이론의 확립
이러한 실용적인 기술 발전과 더불어, 로봇의 움직임을 정밀하게 제어하기 위한 이론적 기반도 공고해졌다. 로봇 팔(manipulator)의 움직임을 기하학적으로 분석하는 기구학(Kinematics)과 힘과 가속도의 관계를 다루는 동역학(Dynamics)의 기본 이론들이 1980년대까지 대부분 확립되었다.41 이는 로봇의 동작을 시뮬레이션하고, 구조를 분석하며, 정교한 제어 알고리즘을 설계하는 데 필수적인 수학적 도구를 제공했다.
1986년에 개최된 IEEE 국제 로봇 및 자동화 학술대회(ICRA ’86)의 발표 목록은 당시 연구의 최전선을 명확하게 보여준다. 주요 연구 주제는 다중 로봇 팔의 동역학 시뮬레이션, 힘과 위치를 동시에 제어하는 혼합 제어(Hybrid position/Force control), 외부 환경 변화에 로봇이 스스로 적응하는 적응 제어(Adaptive control), 그리고 로봇 동역학 방정식의 자동 생성 등이었다.42 이는 산업 현장에서 로봇의 활용도를 높이기 위한 정밀하고 지능적인 제어 기술에 대한 높은 관심을 반영한다.
3.2 자율 이동 로봇을 위한 새로운 패러다임
산업 현장의 자동화가 정점을 향해 달려가고 있을 때, 학계에서는 더욱 근본적인 질문에 도전하고 있었다. 바로 예측 불가능하고 동적인 실제 환경(unstructured environment)에서 로봇이 어떻게 스스로 판단하고 움직일 수 있는가 하는 ’자율성(autonomy)’의 문제였다.
3.2.1 전통적 모델의 한계
당시 자율 로봇 연구를 지배하던 패러다임은 AI의 상징주의적 접근법을 계승한 ‘인식-계획-행동(Sense-Plan-Act)’ 모델이었다. 이 모델은 로봇이 먼저 센서를 통해 주변 환경에 대한 완벽한 내부 세계 모델(world model)을 구축하고(Sense), 이 모델을 기반으로 목표를 달성하기 위한 최적의 행동 순서를 계획한 다음(Plan), 그 계획을 순차적으로 실행하는(Act) 방식이었다. 그러나 이 접근법은 실제 환경에서 심각한 한계를 드러냈다. 현실 세계는 너무나 복잡하고 끊임없이 변하기 때문에 완벽한 모델을 만드는 것이 거의 불가능했으며, 설령 모델을 만들더라도 복잡한 계획 과정에 너무 많은 계산 시간이 소요되어 급변하는 상황에 실시간으로 대응할 수 없었다.43
3.2.2 로드니 브룩스(Rodney Brooks)의 포섭 구조 (Subsumption Architecture, 1986)
MIT의 로드니 브룩스는 이러한 전통적 모델의 한계에 대한 급진적인 대안을 제시하며 행동 기반 로봇공학(Behavior-based robotics)이라는 새로운 분야를 개척했다.43
- 핵심 철학: 브룩스는 “세계는 그 자체로 최고의 모델이다(The world is its own best model)“라는 도발적인 선언을 통해, 복잡하고 중앙 집중화된 세계 모델을 구축하려는 시도를 포기해야 한다고 주장했다.43 대신 로봇은 필요한 정보를 그때그때 센서를 통해 직접 세상에서 얻어 즉각적으로 행동해야 한다는 것이다.
- 계층적 행동 모듈: 그는 로봇의 제어 시스템을 중앙의 단일 지능이 아닌, 여러 개의 독립적인 ‘행동(behavior)’ 모듈들의 계층으로 분해했다. 예를 들어, 가장 낮은 계층에는 ’장애물 회피하기’와 같은 기본적인 생존 행동이 있고, 그 위에는 ‘배회하기’, 그리고 더 높은 계층에는 ’목표 지점 탐색하기’와 같은 더 복잡한 목표 지향적 행동이 위치한다. 각 계층은 센서 입력을 받아 직접 행동 출력을 생성하며, 모든 계층은 병렬적으로 동시에 작동한다.43
- ‘포섭(Subsumption)’ 메커니즘: 이 구조의 핵심은 계층 간의 상호작용 방식에 있다. 상위 계층의 모듈은 더 높은 우선순위를 가지며, 필요할 경우 하위 계층 모듈의 출력을 억제(suppress)하거나 무시하고(inhibit) 자신의 출력을 로봇의 액추에이터로 보낼 수 있다. 예를 들어, ‘목표 탐색’ 모듈이 직진 명령을 내리더라도, ‘장애물 회피’ 모듈이 전방의 벽을 감지하면 직진 명령을 ’포섭’하고 회피 기동을 우선적으로 실행한다. 이처럼 복잡하고 지능적으로 보이는 전체 행동은, 중앙의 계획 없이 단순한 반응형 행동들의 상호작용과 경쟁을 통해 창발적으로 나타난다.44
3.2.3 토마스 로사노-페레즈(Tomás Lozano-Pérez)의 설정 공간 (Configuration Space, 1983)
로드니 브룩스가 로봇 제어의 철학적 패러다임을 바꾸었다면, 같은 시기 MIT의 동료였던 토마스 로사노-페레즈는 로봇의 경로 계획(path planning) 문제에 수학적 엄밀함을 부여했다.48
- 문제의 형식화: 그는 로봇이 장애물을 피해 시작점에서 목표점까지 이동하는 경로를 찾는 문제를 해결하기 위해 ’설정 공간(Configuration Space, C-space)’이라는 강력한 수학적 프레임워크를 제안했다.
- 핵심 개념: 설정 공간은 로봇이 가질 수 있는 모든 위치와 방향(자세)의 집합을 나타내는 고차원 공간이다. 예를 들어, 2차원 평면을 움직이는 로봇이라면 위치(x, y)와 방향(θ)을 좌표로 하는 3차원 공간이 설정 공간이 된다. 이 공간에서 로봇의 전체 상태(위치와 자세)는 단 하나의 점으로 표현된다.49
- 장애물 변환: 실제 물리적 세계에 존재하는 장애물들은, 로봇이 해당 장애물과 충돌하게 되는 모든 로봇의 ’설정(configuration)’들의 집합으로 변환된다. 이렇게 변환된 장애물들은 설정 공간 내에서 ‘금지된 영역(forbidden regions)’ 또는 ’설정 공간 장애물(C-space obstacles)’을 형성한다.
- 경로 탐색: 이 변환을 통해, 복잡한 형태를 가진 로봇의 충돌 회피 문제는 설정 공간 상에서 하나의 ’점’이 ’금지된 영역’을 피해 시작점에서 목표점까지 경로를 찾는, 훨씬 단순한 기하학적 문제로 바뀌게 된다.49 이 접근법은 로봇 경로 계획 연구를 휴리스틱의 영역에서 형식 과학의 영역으로 끌어올렸으며, 오늘날 대부분의 경로 계획 알고리즘의 이론적 기반을 제공하고 있다.
이처럼 1980년대 로봇공학은 두 개의 평행한 세계에서 발전했다. 산업 현장에서는 기존의 자동화 기술을 더욱 정교하게 다듬는 ’개선’이 이루어졌고, 학계에서는 미지의 환경에 도전하기 위한 ’자율성’의 과학을 발명하고 있었다. 이 두 흐름은 오늘날 공장 자동화와 자율주행차, 서비스 로봇이라는 두 개의 거대한 분야로 이어지며 현대 로봇공학의 지형을 형성하고 있다.
4. 시대의 유산과 주요 연구 발표 요약
1980년부터 1986년까지의 시기는 AI와 로봇공학의 역사에서 단순한 기술적 부흥기를 넘어, 현대 기술 지형을 형성한 근본적인 패러다임들이 탄생하고 충돌한 결정적인 순간이었다. 이 시기에 뿌려진 씨앗들은 이후 수십 년에 걸쳐 성장하여 오늘날 우리가 경험하고 있는 AI 혁명의 직접적인 뿌리가 되었다.
4.1 년대 연구가 현대에 미친 영향
- 전문가 시스템의 교훈: 1980년대 중반까지 상업적 성공의 정점을 찍었던 전문가 시스템은 1980년대 후반 ’제2차 AI 겨울’을 맞으며 급격히 쇠퇴했다.6 이 과정은 AI 커뮤니티에 중요한 교훈을 남겼다. 첫째, 기술의 잠재력에 대한 과대광고의 위험성을 명확히 보여주었다. 둘째, 인간의 상식(commonsense)과 암묵지(tacit knowledge)를 명시적인 규칙으로 포착하는 것의 근본적인 어려움, 즉 ‘지식 획득 병목’ 문제의 심각성을 각인시켰다. 그러나 전문가 시스템의 실패가 완전한 무(無)로 돌아간 것은 아니다. 이 시기에 개발된 지식 표현 기법, 추론 엔진 아키텍처, 그리고 지식 공학 방법론은 현대의 시맨틱 웹, 온톨로지(ontology) 공학, 정교한 비즈니스 규칙 관리 시스템(BRMS), 그리고 추천 시스템과 같은 기술에 중요한 지적 유산을 남겼다.
- 딥러닝 혁명의 씨앗: 1980년대 연결주의의 부활, 특히 역전파 알고리즘의 재발견은 당대에는 큰 상업적 성공으로 이어지지 못했다. 당시의 CPU는 거대한 신경망을 훈련시키기에는 너무 느렸고, 훈련에 필요한 대규모 데이터셋도 존재하지 않았기 때문이다.12 그러나 이 시기의 연구는 수십 년간 학계에서 조용히 명맥을 이어오다, 2010년대에 이르러 GPU의 병렬 처리 능력과 인터넷이 제공하는 빅데이터라는 두 가지 조건이 충족되면서 폭발적인 ‘딥러닝(Deep Learning)’ 혁명을 일으키는 직접적인 기술적, 이론적 토대가 되었다. 놀랍게도 1986년에 발표된 역전파의 기본 원리는 오늘날의 ChatGPT와 같은 거대 언어 모델(LLM)과 최첨단 컴퓨터 비전 시스템을 훈련시키는 핵심 알고리즘으로 여전히 사용되고 있다.12 1980년대는 딥러닝이라는 거목이 자라날 씨앗이 뿌려진 시기였다.
- 자율 시스템의 근간: 로드니 브룩스의 행동 기반 로봇공학과 토마스 로사노-페레즈의 설정 공간 접근법은 현대 자율 시스템의 두뇌와 신경계를 설계하는 기본 원리가 되었다. 브룩스의 포섭 구조에서 제시된, 중앙 계획을 배제하고 분산된 반응형 모듈의 상호작용을 통해 지능적 행동을 창발시키는 아이디어는 오늘날의 자율주행차, 화성 탐사 로버, 자율 비행 드론의 제어 아키텍처에 깊은 영향을 미쳤다. 마찬가지로, 로사노-페레즈의 설정 공간은 로봇의 경로 계획 문제를 수학적으로 엄밀하게 다룰 수 있는 길을 열었으며, 이는 현재 사용되는 수많은 경로 탐색 알고리즘의 이론적 출발점이 되었다. 이들의 연구는 로봇을 단순한 자동화 기계에서 진정한 의미의 자율적 에이전트로 전환시키는 데 결정적인 기여를 했다.
4.2 Table 1: 1980-1986년 AI 및 로봇공학 분야의 기념비적 연구 논문
| 연도 (Year) | 저자 (Author(s)) | 논문/연구 (Paper/Research) | 핵심 기여 (Core Contribution) | 지속적 영향 (Lasting Impact) |
|---|---|---|---|---|
| 1982 | John Hopfield | “Neural networks and physical systems with emergent collective computational abilities” | 통계 역학을 이용해 연상 메모리 기능을 하는 재귀 신경망(홉필드 네트워크) 제안. 에너지 함수 개념 도입. | 신경망 연구의 부흥을 이끌었으며, 최적화 문제 해결과 연상 메모리 모델의 이론적 기반을 제공함. |
| 1983 | Tomás Lozano-Pérez | “Spatial planning: A configuration space approach” | 로봇 경로 계획 문제를 기하학적인 ‘설정 공간’ 문제로 형식화하여 충돌 회피 연구의 수학적 토대를 마련함. | 현대 로봇공학 및 자율 시스템의 경로 계획 알고리즘에서 표준적인 접근법으로 사용됨. |
| 1986 | Rumelhart, Hinton, Williams | “Learning representations by back-propagating errors” | 다층 신경망을 효과적으로 훈련시킬 수 있는 역전파 알고리즘을 대중화하여 비선형 문제 학습의 길을 열었음. | 현대 딥러닝의 가장 핵심적인 학습 알고리즘으로, 사실상 모든 심층 신경망 훈련에 사용됨. |
| 1986 | J. Ross Quinlan | “Induction of Decision Trees” | 정보 이론(엔트로피, 정보 획득량)에 기반하여 데이터로부터 의사결정 트리를 자동으로 생성하는 ID3 알고리즘 제시. | C4.5, CART 등 후속 트리 알고리즘의 기반이 되었으며, 해석 가능한 머신러닝 모델의 대표격으로 자리 잡음. |
| 1986 | John Canny | “A Computational Approach to Edge Detection” | 엣지 검출을 위한 최적화 기준을 수학적으로 정의하고, 이를 만족하는 다단계 엣지 검출 알고리즘을 개발함. | 컴퓨터 비전 분야에서 수십 년간 표준 엣지 검출 기법으로 사용되며, 수많은 응용의 전처리 단계에 활용됨. |
| 1986 | Rodney Brooks | “A robust layered control system for a mobile robot” | 중앙 계획 모델을 탈피한 반응형 제어 방식인 ’포섭 구조’를 제안하여 행동 기반 로봇공학 분야를 개척함. | 자율 이동 로봇, 특히 예측 불가능한 환경에서 작동하는 로봇의 제어 아키텍처 설계에 큰 영향을 미침. |
4.3 Table 2: 상징주의 AI와 연결주의 패러다임 비교
| 특성 (Characteristic) | 상징주의 AI (Symbolic AI / GOFAI) | 연결주의 (Connectionism) |
|---|---|---|
| 기본 단위 | 기호 (Symbol) | 뉴런 (Neuron-like unit), 가중치 (Weight) |
| 지식 표현 | 명시적 규칙, 사실, 논리식 (e.g., IF-THEN rules) | 연결 가중치의 패턴 (분산 표현) |
| 추론 과정 | 논리적 연역, 기호 조작, 탐색 (Search) | 신호의 병렬적, 분산적 전파 및 변환 |
| 학습 메커니즘 | 주로 수동적 지식 공학 (Knowledge Engineering) | 데이터로부터 가중치 자동 조정 (e.g., 역전파) |
| 생물학적 유사성 | 낮음 (고수준 인지 과정 모델링) | 높음 (신경계 구조 및 작동 방식 모사) |
| 강점 | 추론 과정의 설명 가능성, 정밀한 지식 표현 | 학습 및 일반화 능력, 노이즈에 대한 강인함 |
| 약점 | 취약성(Brittleness), 지식 획득 병목, 상식 부족 | ‘블랙박스’ 문제(해석의 어려움), 대규모 데이터 필요 |
| 대표 기술 (1980-86) | 전문가 시스템 (XCON, MYCIN) | 홉필드 네트워크, 다층 퍼셉트론 (역전파) |
5. 결론: 패러다임 전환의 동역학과 미래를 향한 교훈
1980년부터 1986년까지의 시기를 재평가할 때, 이 기간은 단순히 AI의 상업적 부흥기나 특정 기술의 전성기로 규정하기에는 부족하다. 오히려 이 시기는 서로 다른 지적 패러다임들이 치열하게 경쟁하고 공존하며 미래 기술의 씨앗을 잉태한, 마치 생명체의 다양성이 폭발적으로 증가했던 ’캄브리아기’에 비유할 수 있는 지적 대폭발의 시대였다. 전문가 시스템은 AI의 실용적 가치를 산업계에 처음으로 입증하며 기술 상용화의 문을 활짝 열었다. 동시에, 그 명백한 한계를 드러냄으로써 AI가 해결해야 할 더 깊고 근본적인 문제가 무엇인지를 역설적으로 제시하며 새로운 접근법의 필요성을 부각시켰다.
이 시대가 우리에게 주는 가장 중요한 교훈은 기술 발전이 결코 선형적인 과정이 아니라는 점이다. 단기적인 상업적 성공을 거둔 기술(전문가 시스템)이 반드시 장기적인 지적 승자가 되는 것은 아니며, 당대에는 비실용적이고 이론적으로만 보였던 학문적 탐구(연결주의)가 수십 년 후 기술의 지형을 완전히 뒤바꿀 수 있음을 이 시기는 명확하게 보여준다. 1980년대의 역사는 하드웨어의 발전, 데이터의 가용성, 그리고 근본적인 알고리즘의 혁신이라는 세 가지 요소가 어떻게 상호작용하며 기술 혁명의 변곡점을 만들어내는가에 대한 심오한 통찰과 역사적 교훈을 제공한다. 결국, 오늘날 우리가 목도하는 AI 혁명은 이 혼란스럽고도 역동적이었던 시대에 뿌려진 씨앗들이 마침내 열매를 맺은 결과물이라 할 수 있다.
6. 참고 자료
- The AI Boom (1980–1987) — Making Things Think - Holloway, https://www.holloway.com/g/making-things-think/sections/the-ai-boom-19801987
- AI Watch Historical Evolution of Artificial Intelligence - JRC Publications Repository, https://publications.jrc.ec.europa.eu/repository/bitstream/JRC120469/jrc120469_historical_evolution_of_ai-v1.1.pdf
- History of artificial intelligence - Wikipedia, https://en.wikipedia.org/wiki/History_of_artificial_intelligence
- Expert system - Wikipedia, https://en.wikipedia.org/wiki/Expert_system
- en.wikipedia.org, https://en.wikipedia.org/wiki/Expert_system#:~:text=Expert%20systems%20were%20among%20the,of%20successful%20artificial%20neural%20networks.
- Expert Systems: A Technology Before Its Time1, http://www.ksl.stanford.edu/people/eaf/cs226/AIExpert95.pdf
- Dreams of the Thinking Machine: The Artificial Intelligence Boom of the 1980s - Brewminate, https://brewminate.com/dreams-of-the-thinking-machine-the-artificial-intelligence-boom-of-the-1980s/
- Connectionism - Wikipedia, https://en.wikipedia.org/wiki/Connectionism
- medium.com, https://medium.com/@janelreyneke/the-history-and-foundations-of-artificial-intelligence-c6f44986e7f#:~:text=In%20the%201980s%2C%20AI%20research,networks%20and%20their%20learning%20capabilities.
- The History and Foundations of Artificial Intelligence | by Janel Ann Reyneke, Ed.D., https://medium.com/@janelreyneke/the-history-and-foundations-of-artificial-intelligence-c6f44986e7f
- Neural Networks - History - Stanford Computer Science, https://cs.stanford.edu/people/eroberts/courses/soco/projects/neural-networks/History/history2.html
- Neural Networks in the 1980s: Seeds of Today’s AI Revolution | by MahadAsif - Medium, https://medium.com/@mahadasif2443/neural-networks-in-the-1980s-seeds-of-todays-ai-revolution-f30f2f6cd9da
- Neural networks and physical systems with emergent … - PNAS, https://www.pnas.org/doi/pdf/10.1073/pnas.79.8.2554
- Neural networks and physical systems with emergent collective computational abilities. | PNAS, https://www.pnas.org/doi/10.1073/pnas.79.8.2554
- Neural Networks and Physical Systems with Emergent Collective Computational Abilities, https://www.researchgate.net/publication/16246447_Neural_Networks_and_Physical_Systems_with_Emergent_Collective_Computational_Abilities
- John Hopfield - Google Scholar, https://scholar.google.com/citations?user=SNhXppAAAAAJ&hl=en
- Top AI Research Papers: Milestones in AI Development - Aslan, MD, https://aslan.md/top-ai-research-papers-milestones-in-ai-development/
- Famous Deep Learning Papers, https://papers.baulab.info/
- Backpropagation - Algorithm Hall of Fame, https://www.algorithmhalloffame.org/algorithms/neural-networks/backpropagation/
- Learning representations by back-propagating errors, https://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf
- Learning representations by back-propagating errors - Semantic Scholar, https://www.semanticscholar.org/paper/Learning-representations-by-back-propagating-errors-Rumelhart-Hinton/052b1d8ce63b07fec3de9dbb583772d860b7c769
- Experiments on Learning by Back Propagation - Carnegie Mellon University, https://ni.cmu.edu/~plaut/papers/pdf/PlautNowlanHinton86TR.backprop.pdf
- Backpropagation: The Basic Theory - Center for the Neural Basis of Cognition, https://www.cnbc.cmu.edu/~plaut/IntroPDP/papers/RumelhartETAL95chap.backpropBasicTheory.pdf
- Learning Representations by Back-Propagating Errors - ResearchGate, https://www.researchgate.net/publication/375595601_Learning_Representations_by_Back-Propagating_Errors
- Back Propagation is Sensitive to Initial Conditions - ResearchGate, https://www.researchgate.net/publication/2422293_Back_Propagation_is_Sensitive_to_Initial_Conditions
- Computer Vision History: 1980 to 1990s | Infoscribe.ai Blog, https://infoscribe.ai/blog/computer-vision-history-1980-late-1990s
- Computer Vision in the 1980s: The Quiet Decade of Key Advancements - Turing Post, https://www.turingpost.com/p/cvhistory3
- Canny edge detector - Wikipedia, https://en.wikipedia.org/wiki/Canny_edge_detector
- A Computational Approach to Edge Detection (1986) | John Canny - SciSpace, https://scispace.com/papers/a-computational-approach-to-edge-detection-t2agw4ph3d
- Master NLP History: From Then to Now - Shelf.io, https://shelf.io/blog/master-nlp-history-from-then-to-now/
- History and Evolution of NLP - GeeksforGeeks, https://www.geeksforgeeks.org/nlp/history-and-evolution-of-nlp/
- Towards a Computational History of the ACL: 1980–2008 - Stanford University, https://web.stanford.edu/~jurafsky/anderson12.pdf
- [PDF] Induction of Decision Trees - Semantic Scholar, https://www.semanticscholar.org/paper/Induction-of-Decision-Trees-Quinlan/bcee7c85d237b79491a773ef51e746bbbcf48e35
- Induction of decision trees, https://par.cse.nsysu.edu.tw/resource/paper/2019/190918/Induction%20of%20Decision%20Trees.pdf
- (PDF) Induction of Decision Trees (1986) | J. R. Quinlan | 18457 Citations - SciSpace, https://scispace.com/papers/induction-of-decision-trees-f74o3tgil7
- Induction of Decision Trees - Penn Engineering, https://www.seas.upenn.edu/~cis520/papers/quinlan.pdf
- Induction of decision trees - Machine Learning (Theory), https://hunch.net/~coms-4771/quinlan.pdf
- ID3 algorithm - Wikipedia, https://en.wikipedia.org/wiki/ID3_algorithm
- J.R. Quinlan - Induction of Decision Trees (1986) - tomrochette.com, https://blog.tomrochette.com/machine-learning/papers/j-r-quinlan-induction-of-decision-trees
- A History of Industrial Robots - Wevolver, https://www.wevolver.com/article/a-history-of-industrial-robots
- Robot Kinematics and Dynamics - ENCYCLOPEDIA OF LIFE SUPPORT SYSTEMS (EOLSS), http://www.eolss.net/sample-chapters/c18/e6-43-38-01.pdf
- Proceedings of the 1986 IEEE International Conference on Robotics and Automation, San Francisco, California, USA, April 7-10, 1986 - Researchr, https://researchr.org/publication/icra-1986
- Subsumption architecture - Wikipedia, https://en.wikipedia.org/wiki/Subsumption_architecture
- How to Build Complete Creatures Rather than … - People | MIT CSAIL, https://people.csail.mit.edu/brooks/papers/how-to-build.pdf
- 20 Most Cited Papers In Robotics - Doradolist, https://www.doradolist.com/papers/20-most-cited-papers-in-robotics
- Object-Oriented Design of the Subsumption Architecture Greg Butler*, Andrea Gantchev, Peter Grogono Department of Computer Scien - IC-Unicamp, https://www.ic.unicamp.br/~esther/teaching/2018s2/mo651/OODesignOfTheSubsumption.pdf
- Asynchronous Distributed Control System For A Mobile Robot - PROCEEDINGS OF SPIE, https://www.spiedigitallibrary.org/proceedings/Download?urlId=10.1117%2F12.937785
- Tomas Lozano-Perez - Google Scholar, https://scholar.google.com/citations?user=gQOKAggAAAAJ&hl=en
- Spatial Planning: A Configuration Space Approach - DSpace@MIT, https://dspace.mit.edu/handle/1721.1/5684
- Tomas Lozano-Perez - Google 학술 검색, https://scholar.google.com.au/citations?user=gQOKAggAAAAJ&hl=ko
- How the AI Boom Went Bust - Communications of the ACM, https://cacm.acm.org/opinion/how-the-ai-boom-went-bust/